fr
Top des produits IA
每月不到10元,就可以无限制地访问最好的AIbase。立即成为会员
Accueil
Actualités IA
AI Quotidien
Guides de monétisation
Tutoriels IA
Navigation des outils IA
Bibliothèque de produits IA
fr
Top des produits IA
Recherchez la dynamique mondiale des produits IA
Recherchez des informations sur l'IA mondiale et découvrez de nouvelles opportunités d'IA
Actualités
Applications de produits
Études de monétisation
Tutoriels IA
Type :
Actualités
Applications de produits
Études de monétisation
Tutoriels IA
2025-02-07 14:07:44
.
AIbase
.
15.1k
Attaques de phishing mondialisées : les sites Web imitant DeepSeek se répandent dans six pays, les utilisateurs doivent rester vigilants
Le laboratoire XLab de Qi An Xin a publié le 6 février un nouveau rapport de sécurité révélant une vague d’attaques de phishing à grande échelle ciblant les utilisateurs de DeepSeek. Les données montrent que le nombre de sites Web d’hameçonnage imitant DeepSeek dépasse les 2000, et continue d’augmenter. Selon le rapport, entre le 1er décembre 2024 et le 3 février 2025, 2650 noms de domaine imitant DeepSeek ont été découverts. Cette vague d’enregistrement de noms de domaine usurpés a commencé le 26 janvier 2025 et a atteint son apogée le 28 janvier. Malgré le ralentissement de la vitesse...
2024-08-09 14:21:54
.
AIbase
.
11.0k
GPT-4o a émis des cris étranges au milieu de la nuit ? OpenAI publie un rapport de sécurité de 32 pages
OpenAI publie un rapport détaillant les avantages et les risques du modèle GPT-4o. Ce modèle a présenté des comportements inhabituels dans certaines conditions, comme imiter la voix de l'utilisateur dans un environnement bruyant, ce qui pourrait être dû à des difficultés du modèle à comprendre la parole. GPT-4o peut parfois générer des sons ou des effets sonores non verbaux inquiétants en réponse à des invites spécifiques, bien qu'il y ait des preuves que le modèle refuse généralement de telles demandes. De plus, le rapport indique que GPT-4o pourrait être impliqué dans des problèmes de droits d'auteur musicaux sans autorisation. Pour atténuer ces risques, OpenAI a...